☰
20.2.1 양자화 기법의 진화: FP16에서 INT8, INT4, 그리고 1-bit LLM까지
Home
/
인공지능 (Artificial Intelligence, AI)
/
제목: Embodied AI & Modern Control
/
Chapter 20. 파운데이션 모델의 경량화와 엣지 배포 (Efficient Deployment)
/
20.2 모델 압축 기술: 양자화와 가지치기 (Model Compression: Quantization & Pruning)
/
20.2.1 양자화 기법의 진화: FP16에서 INT8, INT4, 그리고 1-bit LLM까지
20.2.1 양자화 기법의 진화: FP16에서 INT8, INT4, 그리고 1-bit LLM까지